机器学习技术的不断增长的复杂性在实践中越来越多地使用,因此需要解释这些模型的预测和决策,通常用作黑盒。可解释的AI方法要么是基于数值的特征,旨在量化每个功能在预测或符号中提供某些形式的符号解释(例如反事实)的贡献。本文提出了一种名为asteryx的通用不可知论方法,允许同时生成符号解释和基于分数的解释。我们的方法是声明性的,它基于在等效符号表示中进行解释的模型的编码,后者用于生成特定两种类型的符号解释,这些解释是足够的原因和反事实。然后,我们将反映解释和特征W.R.T功能的相关性与某些属性相关联。我们的实验结果表明,拟议方法的可行性及其在提供符号和基于得分的解释方面的有效性。
translated by 谷歌翻译
在本文中,标题为基于模型的SAT方法,用于符合符号解释列举,我们提出了一种通用的不可知论方法,允许生成不同和互补的符号解释。更确切地说,我们通过分析特征与输出之间的关系来生成解释以在本地解释单个预测。我们的方法使用预测模型的命题编码和基于SAT的设置来生成两种类型的符号解释,这些解释是足够的原因和反事实。图像分类任务的实验结果表明,拟议方法的可行性及其在提供充分的原因和反事实解释方面的有效性。
translated by 谷歌翻译
在本文的标题为反事实解释的符号方法中,我们提出了一种新颖的符号方法,以提供分类器预测的反事实解释。与大多数解释方法相反,目标是了解数据的哪些部分以及在多大程度上有助于提出预测,反事实说明表明必须在数据中更改哪些功能才能更改此分类器预测。我们的方法是象征性的,因为它基于在等效的CNF公式中编码分类器的决策功能。在这种方法中,反事实解释被视为最小校正子集(MCS),这是知识基础赔偿中众所周知的概念。因此,这种方法利用了已经存在的MCS生成的已经存在和经过验证的解决方案的优势。我们对贝叶斯分类器的初步实验研究表明,这种方法在几个数据集上的潜力。
translated by 谷歌翻译